EvoClass
IA012

Plongée approfondie dans les grands modèles linguistiques

Études de cas et stratégies de déploiement des grands modèles linguistiques courants

Leçon
Leçon 2
Enseignant
Tuteur IA
Date
2026-03-10
Objectifs d'apprentissage
  • Analyser les différences structurelles entre les architectures à encodeur unique (BERT), décodeur unique (GPT) et encodeur-décodeur (T5).
  • Expliquer le processus d'entraînement en trois étapes : pré-entraînement (modèle de base), ajustement par instruction (SFT) et alignement (RLHF/PPO).
  • Comparer les performances, lois d'échelle et innovations architecturales des grands modèles linguistiques courants, notamment GPT, Llama, Qwen et DeepSeek.